فهرست مطالب

فصلنامه فیزیک زمین و فضا
سال چهل و هفتم شماره 1 (بهار 1400)

  • تاریخ انتشار: 1400/02/26
  • تعداد عناوین: 12
|
  • زهرا صادقی، علیرضا گودرزی* صفحات 1-12

    تغییرات سریع در خواص فیزیکی، سرعت و توپوگرافی لایه نزدیک به سطح، باعث ایجاد استاتیک های طول موج کوتاه و بروز بی نظمی هایی در هذلولی های زمان رسیدهای دریافت شده از افق های بازتاب زیرسطحی می شود. این عامل بر دیگر مراحل پردازش و همچنین بر کیفیت تفسیر نهایی تاثیر می گذارد. استاتیک های باقی مانده درواقع نوفه های فرکانس بالا هستند و باید به گونه ای حذف شوند که کمترین آسیب به داده اصلی برسد. برای این منظور بهترین راه استفاده از حوزه های تبدیل است. استفاده از تبدیل موجک با فاکتور کیفیت تنظیم پذیر، یک روش جدید و مورداطمینان برای حل مشکلات پردازشی است. پس از بررسی های صورت گرفته مشخص شد که این روش وابستگی به تعیین مقدار پارامتر کیفیت ندارد. با استفاده از این تبدیل فرکانس های بالا از داده های فرکانس پایین جدا می شوند و می توان با اعمال فیلتر پایین گذر این فرکانس ها را حذف کرد، در نتیجه میزان جابه جایی زمانی برای تصحیح استاتیک باقی مانده که باید بر روی کل ردلرزه ها اعمال شود به دست خواهد آمد. در این پژوهش موفقیت این روش بر روی داده های مصنوعی و واقعی نشان داده خواهد شد.

    کلیدواژگان: تصحیح استاتیک باقی مانده، تبدیل موجک، نوفه زدایی، تبدیل موجک با فاکتور کیفیت تنظیم پذیر
  • ساسان قوامی، حمیدرضا سیاه کوهی* صفحات 13-26

    سرعت موج برشی (Vs) در پروژه های مهندسی (همچون عمران، ژیوتکنیک و ژیوفیزیک) برای تعیین پارامترهای دینامیکی خاک و طبقه بندی آن استفاده می شود. میانگین سرعت موج برشی تا عمق 30 متر (Vs30) در ژیوتکنیک برای ارزیابی روانگرایی خاک و در مهندسی زلزله برای تعیین پریود خاک، ضریب بزرگ نمایی ساختگاه و تعیین کاهندگی کاربرد دارد. معمولا سرعت میانگین موج برشی از مدل سرعت موج برشی حاصل از وارون منحنی پاشش، لرزه درون چاهی یا شکست مرزی به دست می آید. متاسفانه وارون سازی منحنی پاشش برای تخمین سرعت موج برشی بخش زمان بر فرایند تحلیل امواج سطحی است. در این مطالعه با ارایه روشی بدون نیاز به وارون منحنی های پاشش، نه تنها سرعت میانگین موج برشی (Vsz) بلکه سرعت میانگین موج تراکمی (Vpz) را به طور مستقیم از منحنی های پاشش، تا عمق نفوذ موج سطحی، تخمین می زنیم. برای این منظور نیازمند رابطه ای بین طول موج های مختلف موج سطحی و عمق های بررسی آنها هستیم. برآورد این رابطه نیاز به مدل سرعت موج برشی (مرجع) در منطقه مورد مطالعه دارد که می تواند از داده های چاه، پروفیل شکست مرزی یا از وارون منحنی پاشش به دست آید. با توجه به وابستگی مقادیر (Vsz) و حساسیت رابطه برآوردشده به نسبت پواسون در ادامه ضمن برآورد نسبت پواسون، پروفیل سرعت میانگین موج تراکمی تا عمق z (Vpz) از پروفیل (Vsz) تخمین زده می شود. نتایج اعمال روش روی داده های لرزه ای واقعی و مصنوعی نشان داد که می توان سرعت میانگین موج برشی و تراکمی را با عدم قطعیت کمتر از 10 درصد در ساختگاه هایی با تغییرات جانبی خیلی زیاد تخمین زد.

    کلیدواژگان: آنالیز امواج سطحی، منحنی پاشش، رابطه طول موج-عمق، سرعت میانگین موج برشی، سرعت میانگین موج تراکمی
  • کمال پروازی، سعید فرزانه*، عبدالرضا صفری صفحات 27-40

    در این تحقیق هدف ارزیابی ترکیب های مختلف عاری از یونسفر برای فرکانس های دو سیستم ماهواره ای ناوبری Galileo و BeiDou و در نهایت بررسی تاثیر این ترکیب ها در کیفیت تعیین موقعیت مطلق دقیق (PPP) می باشد. به این منظور از نرم افزار PPPteh تحت matlab ارایه شده توسط نویسندگان مقاله استفاده می شود. ابتدا به ارزیابی ترکیب های مختلف فرکانس های ماهواره های Galileo شامل E1/E5a، E1/E5b، E1/E5، E1/E6و ماهواره های BeiDou شامل B1/B2، B1/B3، B2/B3 پرداخته شد. بر این اساس ترکیب E1/E5a و B1/B2 به عنوان بهترین ترکیب برای استفاده در روش PPP انتخاب شدند. در بین دیگر فرکانس ها دو ترکیب E1/E5b و B1/B3 از دقت نزدیک به E1/E5a و B1/B2 برخوردار بودند. سپس با در نظر گرفتن دو معیار برتری، تعیین موقعیت PPP با ترکیب مشاهدات دو سیستم GPS/Galileo و GPS/BeiDou و استفاده از دو ترکیب انتخاب شده انجام گرفت. کاهش زمان همگرایی و افزایش دقت سه بعدی مولفه های مختصاتی نسبت به حالت GPS نتیجه شد. در حالت مقایسه دو ترکیب نزدیک به هم کاهش زمان همگرایی در حالت دو بعدی بین 1 تا 5 دقیقه برای BeiDou و 1 تا 8 دقیقه برای Galileo نتیجه شد. در هنگام ترکیب دو سیستم، استفاده از مشاهدات Galileo نسبت به BeiDou از کیفیت مطلوب تری برخوردار بوده است. در نهایت مقایسه نتایج تعیین موقعیت PPP در حالت ترکیب سه سیستم GPS/Galileo/BeiDou انجام گرفت. که نسبت به حالت تک سیستم GPS و همچنین ترکیب دو سیستم  GPS/Galileoو GPS/BeiDou از کیفیت بالاتری برخوردار بوده است. بنابراین می توان دید که انتخاب سیگنال های مناسب در تعیین موقعیت PPP و ترکیب مشاهدات مختلف با GPS می تواند نیاز های کاربر را از نظر دقت و زمان همگرایی مرتفع سازد.

    کلیدواژگان: PPPteh، تعیین موقعیت مطلق دقیق، زمان همگرایی، ترکیب دو فرکانسه، کیفیت سیگنال، سیستم ماهواره-ای ناوبری Galileo و BeiDou
  • بهزاد ملکی، حبیب رحیمی*، محمدرضا حسینی صفحات 41-57

    در این مطالعه، با توجه به واقع شدن شهر دورود در حوزه نزدیک گسل دورود، اثرات حوزه نزدیک و جهت پذیری ناشی از آن بررسی شده است. اثرات حوزه نزدیک و جهت پذیری، می تواند منجر به ایجاد پالس های پریودبلندی در جنبش زمین شده و برای ساختارهایی با پریودبلند از قبیل پل ها که در نزدیکی گسل هایی با نرخ فعالیت بالا هستند، گنجاندن اثرات جهت پذیری در روابط کاهندگی می تواند تاثیر زیادی در نتایج تحلیل خطر لرزه ای واقع گرایانه داشته باشد. گسل دورود در هنگام رخداد زمین لرزه برای پریود های بلند در محدوده شهر دورود، می تواند موجب تشدید پارامترهای جنبش زمین شده و باعث خسارات جدی در این محدوده شود. در این مطالعه، پارامتر های جنبش نیرومند زمین در تحلیل خطر احتمالاتی زمین لرزه با اعمال جهت پذیری برای محدوده گسل دورود برآورد شده است. همچنین با بررسی واهمافزایی خطر زمین لرزه، تاثیر جهت پذیری برای میزان مشارکت فاصله و بزرگا در برآورد پارامتر شتاب جنبش زمین ارزیابی شده است. در دوره بازگشت های بلند مدت و کوتاه مدت، تاثیر جهت پذیری برای پریود های مختلف برای پارامتر شتاب جنبش نیرومند زمین با روش سامرویل و آبراهامسون برآورد و موردارزیابی قرار گرفته است. مقدار شتاب برآوردشده برای سه دوره بازگشت، 50، 475 و 2475 سال و در پریود های 75/0، 1، 2، 3 و 4 محاسبه و ارزیابی شده است. مقدار پارامتر شتاب جنبش زمین با افزایش دوره بازگشت و پریود رابطه مستقیم داشته به طوری که بیشترین مقدار افزایش شتاب با تاثیر جهت پذیری، در دوره بازگشت 2475 سال و در پریود 4 ثانیه، 16/17 درصد محاسبه شد.

    کلیدواژگان: برآورد خطر زمین لرزه، اثرات حوزه نزدیک گسل، جهت پذیری گسیختگی، چشمه بالقوه زمین لرزه، گسل دورود
  • سمیرا قلعه نویی*، وحید ابراهیم زاده اردستانی صفحات 59-75

    ویژگی های زمین شناختی و ژیودینامیکی پیچیده منطقه کوه زایی زاگرس محققان بسیاری را در دهه های اخیر متوجه خود ساخته است. با وجود پژوهش های صورت گرفته، همواره نیاز به مطالعات بیشتر در رابطه با ساختار سنگ کره و پوسته در منطقه زاگرس با توجه به پیشینه زمین شناسی این منطقه احساس می شود. لذا این تحقیق بر آن است تا به بررسی ساختار ریولوژیکی سنگ کره با استفاده از تابع طیفی ادمیتنس بین بی هنجاری های هوای آزاد گرانی و توپوگرافی و نیز روش واهمامیخت بار و در نتیجه به تعیین ضخامت کشسان (Te) سنگ کره، که پارامتری مهم در سنجش میزان مقاومت آن نسبت به تغییر شکل و بار های اعمالی بوده و مقیاسی از میزان تعادل ایزوستازی در منطقه است، بپردازد. در این پژوهش برای نخستین بار از داده های برداشت زمینی با دقت 5 میلی گال استفاده شده است. از آنجایی که استفاده از داده های زمینی به عنوان ورودی در روش مذکور برای نخستین بار صورت می گیرد، ابتدا صحت و دقت روش در بازگردانی پارامتر مجهول با تحلیل مصنوعی مورد بررسی قرار گرفته و بعد از تایید دقت روش، از آن به منظور تعیین ضخامت کشسان در منطقه مذکور استفاده خواهد شد. با بررسی نتایج حاصل در منطقه موردبررسی، این نتیجه دریافت شد که مقاومت سنگ کره در منطقه به بارهای اعمالی، کم و روبه متوسط بوده که این نتیجه با فعالیت های لرزه خیزی و سایر پژوهش های ژیوفیزیکی صورت گرفته در منطقه همخوانی دارد. مقدار متوسط ضخامت کشسان تخمین زده شده برابر با 2±37 کیلومتر محاسبه شده است. بیشترین مقدار ضخامت کشسان در بخش جنوب غربی بلوک ایران مرکز برابر با 65 کیلومتر و کمینه مقدار آن در منطقه زاگرس با مقداری در حدود 15 کیلومتر به دست آمده است.

    کلیدواژگان: زاگرس، ضخامت کشسان، سنگ کره، گرانی سنجی، ادمیتنس، واهمامیخت بار
  • ندا مشهدگرمه، مهدی مظاهری*، جمال محمد ولی سامانی صفحات 77-90

    انتشار آلودگی در منابع آب های سطحی و زیرزمینی یکی از مهم ترین مشکلات زیست محیطی در دنیای امروز است. در این راستا حل های تحلیلی نقش مهمی در درک بهتر مساله انتقال آلودگی، تخمین پارامترهای فرایند انتقال آلاینده و صحت سنجی حل های عددی ایفا می کنند. در این تحقیق حل تحلیلی معادله انتقال آلودگی در حالت دو بعدی به ازای شرط اولیه کلی و نیز به ازای منابع فعال آلاینده نقطه ای با الگوهای زمانی دلخواه در دامنه محدود در مجاری روباز با استفاده از تکنیک تبدیل انتگرالی تعمیم یافته به دست آمده است. به منظور ارزیابی عملکرد حل تحلیلی استخراج شده، نتایج حاصله از حل تحلیلی پیشنهادی با حل تحلیلی با استفاده از روش تابع گرین در قالب دو مثال فرضی مجزا مقایسه شد. در مثال فرضی اول، شرط اولیه به صورت تخلیه ناگهانی جرم ماده خشک در یک نقطه معین و عبارت منبع به صورت یک منبع آلاینده نقطه ای فعال با الگوی زمانی به صورت یک تابع نمایی در نظر گرفته شد. در مثال دوم، شرط اولیه مشابه با مثال اول و عبارت منبع به صورت دو منبع آلاینده نقطه ای فعال با الگوهای زمانی نامنظم لحاظ شد. کانتورهای غلظت حاصله در هر دو مثال، انطباق حل تحلیلی پیشنهادی با حل تحلیلی با استفاده از روش تابع گرین را نشان می دهد. همچنین شاخص های آماری ضریب همبستگی (R2) و میانگین خطای نسبی (MRE، Mean Relative Error) نیز کمتر از 5/0 درصد به دست آمد که عملکرد مطلوب حل تحلیلی پیشنهادی را گزارش می دهد. حل تحلیلی پیشنهادی قابلیت اتخاذ شرط اولیه دلخواه و نیز منابع آلاینده متعدد با الگوهای زمانی دلخواه را دارا بوده و می تواند به عنوان یک راه حل مبنا در صحت سنجی حل های عددی مورد استفاده قرار گیرد.

    کلیدواژگان: معادله انتقال آلودگی، شرط اولیه، منابع آلاینده نقطه ای، الگوهای زمانی دلخواه، روش تبدیل انتگرالی تعمیم یافته، دامنه محدود
  • میر رضا غفاری رزین* صفحات 91-107

    در این مقاله از ترکیب روش تجزیه به مولفه های اصلی (PCA) و همچنین سیستم استنتاج فازی (FIS) جهت مدل سازی سری زمانی تغییرات محتوای الکترون کلی (TEC) یونوسفر در منطقه ایران استفاده شده است. نوآوری مقاله در این است که مشاهدات قبل از ورود به الگوریتم فازی، با استفاده از PCA به مولفه های اصلی تجزیه شده و تنها چند مولفه اصلی اول به عنوان ورودی و جهت آموزش الگوریتم استفاده می شوند. حسن این کار در کاهش محاسبات ریاضی انجام گرفته، افزایش سرعت محاسبات و همچنین کاهش زمان همگرایی به جواب بهینه است. مشاهدات مربوط به ایستگاه GPS تهران که یکی از ایستگاه های شبکه جهانی IGS است برای سال 2016 مورد استفاده قرار گرفته است. از شاخص های آماری dVTEC=|VTECGPS-VTECmodel|، ضریب همبستگی و همچنین جذر خطای مربعی میانگین (RMSE) جهت ارزیابی روش جدید استفاده شده است. ارزیابی های آماری صورت گرفته در مورد شاخص dVTEC نشان می دهد که برای مدل ترکیبی PCA-FIS، این شاخص نسبت به حالت مدل FIS بدون PCA، مدل تجربی NeQuick و همچنین خروجی های شبکه جهانی IGS (GIM-TEC) مقدار عددی کمتری را دارد. ضریب همبستگی مرحله آزمون برای مدل های PCA-FIS، GIM و NeQuick به ترتیب برابر با 890/0، 704/0 و 697/0 به دست آمده است. همچنین مقدار RMSE مرحله آزمون برایمدل های PCA-FIS، GIM و NeQuick به ترتیب برابر با 88/1، 11/6 و 97/6TECU حاصل شده است. با استفاده از ترکیب PCA و شبکه فازی سرعت همگرایی به جواب بهینه از 205 ثانیه به 159 ثانیه کاهش یافته است. آنالیز مولفه های x، y و z در تعیین موقعیت نقطه ای دقیق (PPp) نیز حاکی از بهبود 5 الی 10 میلی متر نسبت به مدل GIM و مدل تجربی NeQuick می باشد. نتایج حاصل از این مقاله نشان می دهد که روش PCA-FIS یک روش با دقت، صحت و سرعت بالا جهت مدل سازی سری زمانی تغییرات TEC در منطقه ایران است.

    کلیدواژگان: یونوسفر، شبکه فازی، تجزیه به مولفه های اصلی، GPS
  • امید ماه پیکر، امیر اشتری لرکی، محمد اکبری نسب* صفحات 109-125

    پیچک ها یکی از پدیده های معمول دریایی هستند که باعث انتقال انرژی و جرم در دریا می شوند. شناسایی و استخراج پیچک ها یکی از جنبه های مهم اقیانوس شناسی فیزیکی است و الگوریتم های اتوماتیک شناسایی پیچک ها از اساسی ترین ابزارها برای آشکارسازی و تحلیل پیچک ها هستند. از نظر ابعاد و مدت دوام، پیچک ها به دو نوع میان مقیاس و زیرمیان مقیاس تقسیم می شوند که پیچک های زیرمیان مقیاس دارای مقیاس طولی 100 متر تا 10 کیلومتر و مقیاس زمانی 1 تا 10 روز هستند. در این مطالعه از الگوریتم هندسه برداری برای شناسایی اتوماتیک پیچک ها در خلیج فارس استفاده شده است که این الگوریتم بر مبنای چرخش بردار سرعت جریان عمل می کند. داده های اصلی استفاده شده برای آشکارسازی پیچک ها، خروجی های مدل عددی شامل مولفه های سرعت هستند. این خروجی ها حاصل مدل سازی عددی با درنظرگرفتن واداشت های گرما-شوری و تنش باد هستند که پس از پایداری و صحت سنجی مدل عددی جهت استخراج پیچک ها به عنوان ورودی الگوریتم در نظر گرفته شده اند. در مجموع 4308 پیچک چرخندی و 2860 پیچک واچرخندی در لایه ی سطحی و 617 پیچک چرخندی و 329 پیچک واچرخندی در پایین ترین لایه یعنی عمق 50 متری به ازای داده های روزانه طی یک سال خروجی مدل شناسایی شد. تعداد پیچک ها در فصل زمستان بیشترین و در فصل تابستان کمترین است و شعاع میانگین پیچک های واچرخندی در فصل زمستان و چرخندی در فصل تابستان بیشینه است. بیشترین شعاع پیچک ها در بازه بین 5-10 کیلومتر و مدت دوام بیشتر آنها نیز بین 3-6 روز است. همچنین هرچه طول عمر پیچک ها و شعاع آنها بیشتر باشد، می توانند در عمق بیشتری نفوذ کنند.

    کلیدواژگان: خلیج فارس، پیچک، زیرمیان مقیاس، الگوریتم هندسه برداری، شعاع پیچک، مدت دوام پیچک
  • نفیسه صدیقی، محمدعلی حداد* صفحات 127-144

    امروزه یکی از مهم ترین عوامل آلاینده های محیطی در مناطق خشک و نیمه خشک وجود زیاد ذرات بسیار ریز هواویز در هوا است. نخستین گام برای مهار و کاهش اثرات مخرب هواویزها، مطالعه و شناسایی دقیق ساختار و ویژگی های عنصری ذرات هواویز است. هدف از این پژوهش مشخصه یابی ساختاری و عنصری هواویز های ریزشی شهر یزد از جمله توزیع اندازه ذرات، ریخت شناسی و تحلیل عنصری این دسته از ذرات است. بدین منظور در این مقاله از ابزارهای شناسایی ساختاری و عنصری از جمله SEM، EDX، LIBS و XRD بهره برده شده است. مطالعه عنصری نمونه ها با استفاده از روش بیناب نگاری فروشکست القایی لیزری (LIBS) صورت گرفت و در مجموع 74 خط نشری اتمی پلاسمای تولید شده مشاهده شد. در نتیجه تجزیه وتحلیل بینابی خطوط نشری منجر به شناسایی عناصری مانند کلسیم، سیلیسیم، آهن، منیزیوم، آلومینیوم، کربن، پتاسیم، سدیم، استرانسیوم، منگنز، تیتانیوم، کبالت، باریم، وانادیوم و سرب شد. نتایج حاصل از الگو های پراش پرتو ایکس (XRD) وجود کانی هایی از گروه های سیلیکات، کربنات و فسفات و با فراوانی غالب کانی های کوارتز و کلسیت را نشان داده است. همچنین در بررسی شکل و اندازه هواویزها با استفاده از تصاویر SEM، این نتیجه حاصل شده است که بیشتر هواویزها، دارای شکل های کشیده، منشوری، کروی، نامنظم و چند وجهی با اندازه بین 1 تا 30 میکرومتر با فراوانی بیشینه اندازه ذرات بین 2 تا 7 میکرومتر هستند.

    کلیدواژگان: هواویز، ریخت شناسی، بیناب نگاری فروشکست القایی لیزری (LIBS)، پراش پرتو ایکس (XRD)، بیناب نگاری پراش انرژی پرتو ایکس (EDX)، میکروسکوپ الکترونی روبشی (SEM)
  • نفیسه پگاه فر* صفحات 145-174

    حساسیت سنجی مدل های عددی در پیش بینی ویژگی های پدیده چرخند حاره ای کاری مهم است. در این پژوهش عملکرد 5 طرحواره پارامترسازی همرفت کومه ای شامل BMJ، KF، SAS، SASAS و TiedTKE با اجرای مدل HWRF برای شبیه سازی چرخند حاره ای گونو بررسی شد. نتایج نشان داد که هیچ یک از طرحواره ها انتهای مسیر چرخند را درست پیش بینی نکرده و در شرایط شدت بیش از دسته 3، روند تغییر فشار سطحی و روند باد بیشینه هم درست پیش بینی نشد. البته، در شدت های کمتر طرحواره SAS دقیق ترین نتیجه را تولید کرد. مشابهت قابل قبولی میان الگوهای شبیه سازی شده و تحلیلی برای نیمرخ های قایم دمای پتانسیلی و سرعت افقی مشاهده شد. شدت جریان های نزولی و صعودی شبیه سازی شده بیش از مقادیر تحلیلی و نزدیک تر به مرکز چرخند بودند. طرحواره های SAS و SASAS نیز به ترتیب با کمترین خطا جریان های نزولی و صعودی را تولید کردند. الگوی واگرایی تراز زبرین توسط میدان های تحلیلی و شبیه سازی شده رویت شد، اما همگرایی تراز زیرین در هیچکدام دیده نشد. بیشینه مقدار انرژی پتانسیل دسترس پذیر همرفتی شبیه سازی شده نسبت به تحلیلی در فاصله دورتری از سواحل عمان پیش بینی شد. تنها طرحواره SASAS توانست شکل گیری شدیدترین هسته تاوایی پتانسیلی در نزدیکی سطح را شبیه سازی کند. بیشینه مقدار بارش تجمعی پیش بینی شده تمام طرحواره ها یکسان و نصف مقدار مشاهداتی بود. چینش افقی باد شبیه سازی شده توسط هر 5 طرحواره کمتر از مقادیر تحلیلی بود. در ایستگاه چابهار، طرحواره های KF، TiedTKE و SASAS به ترتیب در پیش بینی مقادیر سطحی سرعت باد، فشار تراز دریا و دما دقیق ترین نتایج را تولید کردند.

    کلیدواژگان: مدل HWRF، طرحواره های پارامترسازی همرفت کومه ای، چرخند حاره ای گونو، تاوایی پتانسیلی، بارش
  • جعفر چراغعلی زاده، مرتضی نطاق نجفی*، احد صابر تازه کند صفحات 175-186

    ابرها با پراکنده کردن تابش دریافتی از خورشید نقش زیادی را در توازن انرژی زمین ایفا می کنند. ما دراین مقاله نقشه​ی دوبعدی شدت نور مریی رسیده از ابرهای کومه ای (Cumulus) که توسط دوربین عکاسی به ثبت رسیده است را مورد بررسی قرار می دهیم. با به کارگیری تکنیک های مربوط به سطوح زبر، خواص آماری لگاریتم این شدت (به عنوان یک میدان افت وخیزدار دوبعدی) را مطالعه می کنیم. تخمین های عددی ما نشان می دهد که نمای زبری محلی و سرتاسری به ترتیب   و  هستند. همچنین نشان می​دهیم که تابع توزیع لگاریتم شدت و همچنین تابع توزیع انحنای موضعی مربوطه (به ازای مقیاس های مختلف) گاوسی نیستند و در نتیجه سطح دوبعدی در نظر گرفته شده غیرگاوسی است. با دانش به این که پستی وبلندی ابرها و در حالت کلی آمار ارتفاع و ضخامت ابرها تاثیری مهم در پراکندگی و جذب تابش خورشید دارند، به بررسی ارتباط شدت نور رسیده از ابر و ضخامت آن می پردازیم. برای این منظور نور پراکنده شده از ابرهای کومه​ای را با استفاده از یک مدل درشت دانه شده پدیده شناختی بر پایه پراکندگی می شبیه​سازی می​کنیم. نتایج این شبیه​سازی نشان می​دهد که برای تابش عمودی و غیرعمودی، شدت نور رسیده از پایین ابر به صورت نمایی با ارتفاع ستون ابر درست در بالای آن کاهش می​یابد. در حوزه اعتبار نتایج این شبیه​سازی، می توان ادعا کرد که مسئله ضخامت ابرهای کومه ای به سطح زبر غیرگاوسی خود متشابه نگاشت می شود.

    کلیدواژگان: ابر های کومه ای، پراکندگی نور مرئی از سطح ابر، سطوح زبر خودمتشابه، برخال
  • بنفشه زهرایی*، حامد پورسپاهی سامیان، محسن ناصری، سید محمود طاهری صفحات 187-203

    با توجه به وضعیت اقلیمی خشک و نیمه خشک ایران و کاهش متوسط بارش ها به خصوص در سال های اخیر، استفاده از روش های نوینی همچون بارورسازی ابرها به منظور دست یابی به منابع آب بیشتر موردتوجه قرار گرفته و با این هدف، بارورسازی ابرها از سال 1377 در کشور عملیاتی شده است. هدف از این تحقیق، ارزیابی آماری پروژه های بارورسازی ابرها در سال آبی 93-94 (ماه‏های ژانویه، فوریه و مارس سال 2015 میلادی) در مناطقی از فلات مرکزی ایران شامل استان‏های یزد، کرمان، فارس، اصفهان و برخی از مناطق مجاور با بهره گیری از رگرسیون چندگانه گام به گام است. در این تحقیق از دو رویکرد آماری استفاده شد. در رویکرد اول، بارش در ایستگاه‏های واقع در منطقه تحت تاثیر عملیات بارورسازی، بر اساس بارش در ایستگاه‏های خارج از این منطقه با استفاده از این رگرسیون خطی برآورد شده و سپس با در نظر گرفتن بازه اطمینان 90 درصد، اثرگذاری عملیات بارورسازی در هر ایستگاه تعیین شده است. در رویکرد دوم، حجم بارش در استان‏های تحت تاثیر عملیات بارورسازی بر اساس بارش در ایستگاه‏های خارج از محدوده تحت تاثیر بارورسازی با استفاده از رگرسیون خطی چندگانه گام به گام برآورد شده و سپس با در نظر گرفتن بازه اطمینان 90 درصد، اثرگذاری عملیات بارورسازی بر روی حجم بارش هر استان بررسی شده است. نتایج هر دو روش حاکی از تاثیرگذاری معنی دار عملیات بارورسازی در این سال در این مناطق بوده است. به گونه‏ای که حجم بارش در ماه فوریه در تمام استان‏های واقع در منطقه هدف عملیات بارورسازی از 15 تا 80 درصد افزایش داشته است.

    کلیدواژگان: تعدیل وضع هوا، رگرسیون چندگانه گام به گام، رگرسیون خطی چندگانه، ارزیابی آماری، بارورسازی ابرها، فلات مرکزی ایران
|
  • Zahra Sadeghi, Ali Reza Goudarzi * Pages 1-12

    The derivation of the static reference corrections was generally based on a fairly simple geological model close to the surface. The lack of detailed information near the surface leads to inaccuracies in this model and, therefore, in static corrections. Residual static corrections are designed to correct small inaccuracies in the near-surface model. Their application should lead to an improvement of the final section treated compared to that in which only static corrections is applied. For example, if the final stacked section is to be inverted to produce an acoustic impedance section, it is important that the variations in amplitude along the section represent the changes in the reflection coefficient as close as possible. This is unlikely to be the case if small residual static errors are present. In addition, static reference corrections are not a unique set of values because a change in reference results in a different set of corrections. Due to variation in the Earth's surface, velocities, and thicknesses of near-surface layers, the shape of the travel time hyperbola changes. These deviations, called static, result in misalignments and events lost in the CMP, so they must be corrected during the processing. After correcting the statics of long wavelengths, there are still some short-wavelength anomalies. These “residual” statics are due to variations not counted in the low-velocity layer. The estimation of the residual static in complex areas is one of the main problems posed by the processing of seismic data, and the results from this processing step affect the quality of the final reconstructed image and the results of the interpretation. Residual static can be estimated by different methods such as travel time inversion, power stacking, and sparsity maximization, which are based on a coherent surface assumption. An effective method must be able to denoise the seismic signal without losing useful data and have to function properly in the presence of random noise. In the frequency domain, it is possible to separate the noise from the main data, so denoising in the frequency domain can be useful. Besides, the transformation areas are data-driven and require no information below the surface. The methods in the frequency domain generally use the Fourier transform, which takes time and has certain limits. Wavelet transformation methods always provide a faster procedure than Fourier transformation. We have found that this type of wavelet transform could provide a data-oriented method for analyzing and synthesizing data according to the oscillation behavior of the signal. Tune able Q Factor Discrete Wavelet Transform (TQWT) is a new method that provides a reliable framework for the residual static correction. In this transformation, the quality factor (Q), which relates to the particular oscillatory behavior of the data, could be adjusted in the signal by the user, and this characteristic leads to a good correspondence with the seismic signal. The Q factor of an oscillatory pulse is the ratio of its center frequency to its bandwidth. TQWT is developed by a tow channel filter bank. The use of a low-pass filter eliminates high-frequency data; these high-frequency components are the effect of residual static. After filtering, the data will be smoother; this amount of correction gives the time offset for the residual static correction. This time difference must apply to all traces. Applying this method to synthetic and real data shows a good correction of the residual static.

    Keywords: residual static correction, Discrete Wavelet Transform, Denoising, quality factor
  • Sasan Ghavami, Hamid Reza Siahkoohi * Pages 13-26

    Shear wave velocity (ܸ௦) and its average based on travel time from the surface to a depth of 30 m, is known as (ܸ௦ଷ଴) are often used in engineering projects to determine soil parameters, evaluate the dynamic properties of the soil and classify it. This quantity is directly related to the important property of soil and rock, i.e., their shear strength. The average shear wave velocity is used in geotechnics to assess soil liquefaction and in earthquake engineering to determine soil period, site amplification coefficient, and determination of attenuation. Usually, the average shear wave velocity is obtained from shear wave refraction survey, PS logging or from shear wave velocity profile obtained by inversion of experimental dispersion curve of surface waves. Surface wave analysis is one of the methods for estimating the profile of shear wave velocity, but inverting of dispersion curve is a time-consuming part of this process and also, the inverse problem has a non-unique solution. This becomes more evident when the goal is to determine a two- or three-dimensional shear wave velocity model. This study provides a method to estimate directly the average shear wave velocity (ܸ௦௭) as well as the average compressional wave velocity (ܸ௣௭) from dispersion curves of surface waves without the need to invert the dispersion curves. For this purpose, we need to exploit the relation between surface wave wavelength and investigation depth. Estimating the wavelength-depth relationship requires access to a shear wave velocity model (a reference model) in the study area, which can be obtained from well data, refraction seismic profiles, or by inverting one of the experimental surface wave dispersion curves. The ܸ௦௭ is then estimated directly from dispersion curve using the wavelength-depth relationship. In addition, due to the dependence of the value of ܸ௦௭ to Poisson's ratio and the sensitivity of the estimated wavelength-depth relationship to this ratio, we estimate the Poisson's ratio profile and average compressional velocity (ܸ௣௭) for the study area, from the ܸ௦௭. For a given range of Poisson's ratio values, theoretical dispersion curves of the synthetic earth models are determined by forward modeling. Then using these dispersion curves and estimated average shear wave velocity of the model, the wavelength-depth relationship corresponding to each Poisson's ratio is determined. In the next step by comparing experimental and estimated wavelength-depth relationships, one can estimate the Poisson's ratio at each depth. Then the average compressional wave velocity (ܸ௣௭) is estimated using the ܸ௦௭ and the Poisson's ratios. We evaluated the performance of the proposed method by applying on both real MASW seismic data set from USA and synthetic seismic data. The synthetic data collected over synthetic earth model and showed that the average shear and compression waves velocities are estimated with uncertainty of less than 10% in layered earth model with very large lateral variations in shear and compression waves velocities. According to the results, the proposed method can be used to take the non-destructive advantages of the surface wave method in engineering, geotechnical, and earthquake engineering projects to get the average shear wave velocity ܸ௦௭.

    Keywords: surface waves analysis, dispersion curve, wavelength-depth relationship, average shear wave velocity, average compressive wave velocity
  • Kamal Parvazi, Saeed Farzaneh *, Abdo-El Reza Safari Pages 27-40

    Due to advances in global navigation satellite systems, it has been possible for satellites to send different frequencies. For this reason, different combinations of these frequencies can be considered to form ionospheric codes and phase observations. In this study, the aim is to evaluate the Precise Point Positioning method using a combination of different frequencies. For this purpose, the PPPteh software provided by the authors, written under MatLab is used. PPPteh has the ability to process observations from four GPS, GLONASS, BeiDou and Galileo satellite systems to perform precise point positioning. In this software, there are all possible combinations for making Dual-frequency ionosphere-free observations for all different frequencies. There are three modes for combining different frequencies for the GPS positioning system, ten modes for the Galileo system, and three modes for building the BeiDou satellite system to make ionospheric-free observations. To evaluate the precise point positioning method, four steps have been considered in terms of position accuracy and convergence time: 1) First, use the observations of two frequencies  related to GPS and determine the position, 2) Combine the two systems satellite GPS and Galileo and select the best combination model, 3) Combining the two systems GPS and BeiDou and selecting the best combination and 4) Finally, after the previous three steps, the combination position will be determined using the three systems by the best frequency model and the results will be compared with each other. Based on the results provided for the Galileo and BeiDou navigation satellite systems, two combinations  and were selected as the best combinations for use in determining the precise point positioning, respectively. Following the precise point positioning, the addition of observations on BeiDou satellites has reduced convergence time and, in most cases, increased the three-dimensional accuracy of the coordinate components. Using a combination of the signals has a better quality than the other two combinations. The same process was followed for observations of Galileo satellites, according to which the use of observations related to Galileo satellites when combined with GPS observations has increased accuracy and reduced convergence time. The use of  signal signals is of better combination than the other three combinations. Finally, by combining all three systems and considering the selected frequency model in the first stage, it was concluded that the combination of three satellite navigation satellite systems GPS, Galileo and BeiDou significantly improved both in reducing convergence time and increasing the three-dimensional accuracy of the coordinates provided. Also, the error provided (the difference in the estimated coordinates with the final coordinates of the station from the IGS file), when using the Galileo and BeiDou systems in combination with the GPS, is noticeably different both in convergence and in the accuracy of the coordinates. Combining all three systems together increases accuracy and reduces convergence time. But in dual-combination with GPS, the use of Galileo satellite observations gives us higher accuracy as well as less convergence time. Therefore, choosing the right signals to form ionosphere-free observations in determining the exact absolute position as well as combining different observations with the correct weight for each signal in combination with GPS, can meet the user's needs in terms of accuracy and convergence.

    Keywords: PPPteh, Precise point positioning, Convergence time, Dual-Frequency, Signal quality, Galileo, BeiDou navigation satellite systems
  • Behzad Maleki, Habib Rahimi *, Mohammad Reza Hosseini Pages 41-57

    In this study, considering the location of Dorud city in the area near the strike-slip and seismic fault of Doroud, the effects of the near site and the directivity due to rupture have been investigated in seismic hazard analysis studies. Doroud fault is located near the cities of Doroud and Boroujerd, in the western part of Iran. Dorud and Boroujerd are among the important cities of Iran in the agricultural industry and also due to the pristine nature in these areas has always been of interest to tourists. The micro-earthquakes recorded in this area indicate the activity of the Doroud fault system. In order to prevent possible earthquake damage in this area, seismicity studies can be useful to study the acceleration of the ground by considering the effects of the site in order to strengthen the construction of civil structures. Abrahamson (2000) and Somerville et al., (1997) were among the first researchers to establish studies based on this, and the relationships and methods proposed by them are more acceptable today in applying the directional effect. These researchers considered two parameters of angle and ratio of fault length as a direct factor in the effect of orientation and examined the results for the acceleration spectrum created. The effect of orientation can lead to the formation of long-period pulses in the earth's motion, which some proposed models (eg Somerville et al., 1997) can measure the quantity of this effect in estimating earthquake risk analysis with a deterministic and probabilistic approaches. (Abrahamson, 2000). In this study, seismic hazard has been investigated, compared and evaluated by considering the effects of Doroud fault in different periods and different return periods by considering the effect of orientation and also without applying the effect of orientation. Near-field and directional effects can lead to long-period pulses in ground motion parameter, and for structures with long periods such as bridges and dams near faults with high activity rates. The inclusion of directional effects in attenuation relationships, to see whether for deterministic and probabilistic approach can have a great impact on the results of realistic seismic hazard analysis. Doroud fault is one of the most important faults in Iran with a history of large earthquakes in the early instrumental period and its mechanism of strike-slip mechanism, It can intensify the strong motion parameters during earthquakes for long periods in the city of Dorud, and consequently cause serious damage to structures with long periods in this area. In this study, the parameters of strong ground motion in the analysis of probabilistic earthquake hazard by applying direction for the range of Doroud fault have been estimated. In addition, by examining the disaggregation of earthquake hazard, the effect of direction for the contribution of distance and magnitude in estimating the strong motion parameter has been evaluated. In the short and long return periods, the effect of directivity for different periods for the strong motion has been estimated and evaluated by the Somerville and Abrahamson method. The estimated acceleration is calculated and evaluated for three return periods, 50, 475 and 2475 years and in periods of 0.75, 1, 2, 3 and 4 sec. The value of the strong motion parameter was directly related to the increase of the return period and the period, so that the highest amount of acceleration increase (17.16 percentage) with the effect of directivity was calculated in the return period of 2475 years and in the 4-second period.

    Keywords: Near-field, directional effects, Doroud fault, Dorud city, Hazard
  • Samira Ghalehnovi *, Vahid Ebrahimzadeh Ardestani Pages 59-75

    Zagros orogeny is one of the most active orogenic belts among the mountain ranges extending approximately 2000 kilometers from the Anatolian fault in eastern Turkey to the Minab fault in southern Iran. Concerning the importance of this region as well as the essential role of elastic thickness in controlling the rate of deformation under applied loads, determination of Te in Zagros Fold and Thrust belt has been conducted. The lithosphere's elastic thickness (Te) is a convenient measure of the flexural rigidity, which is defined as the resistance to bending under applied loads. To determine the elastic thickness of the lithosphere, the spectral admittance function is applied. We applied the load deconvolution of the admittance function between free-air gravity and topography data for estimation of Te. The Free air anomalies with a five arc-minute resolution are utilized in this study. In flexural isostatic studies, the gravity and topography data are compared with theoretical models to estimate several parameters of the lithosphere. In the simplest model, a plate has been flexed by a surface load, with the magnitude of the resulting deflection, which is governed by Te. Using the random fractal surfaces as the initial surface and subsurface loads applying at lithosphere, the lithosphere is modeled, and the post flexural gravity and topography are determined. Based on these new fields, the predicted admittance function is determined. Finally, the best-fitting Te is one that minimized the misfit between the observed and predicted functions. Additionally, the weighted misfit by the jackknife error is applied to estimate the observed admittance. The accuracy of the method is checked through synthetic modeling. Two fractal surfaces are used as the two initial surface and subsurface loads applied to the lithosphere. After calculating the corresponding gravity and topography data by the load deconvolution method, the observed and predicted admittance are estimated. The best-fitting Te will be obtained by minimizing the misfit between observed and predicted functions. After confirming the accuracy of the method in Te determination, the technique will be applied to the real data acquired from the NCC as follow. We consider a three-layered crust during the lithosphere modeling on which the internal loading is applied on the middle crust. To model the lithosphere, the global CRUST 1.0 is applied by treating the lithosphere as a three-layer crust. The 2D map of Te variations in the target area is depicted by utilizing the load deconvolution of the admittance function between free-air gravity and topography data. High-precision ground gravity data, which is more accurate than satellite data, allows us to detect more details on Te variations in the region. Based on the obtained results, the estimated range of Te in the survey region can be considered low to intermediate. This predicted range is in good accordance with the area's geology background as it is regarded as a young, active orogeny system. Te range and hence the lithosphere's predicted strength to deformation is supported by the previous studies using different geophysical and seismological studies. The mean value of Te in the area is 37±2 km. The maximum amount is detected in the Sanandaj-Sirjan zone. The overall predicted trend of Te follows the geological background of the region. Additionally, the estimated trend for Te and the strength to the applied load and deformation is in good agreement with the previous geophysical and seismological studies conducted in the region.

    Keywords: Zagros, elastic thickness, Lithosphere, Gravity, admittance function, load deconvolution
  • Neda Mashhadgarme, Mehdi Mazaheri *, Jamal Mohammad Vali Samani Pages 77-90

    Pollutant dispersion in environment is one of the most important challenges in the world. The governing equation of this phenomenon is the Advection-Dispersion-Reaction (ADRE) equation. It has wide applications in water and atmosphere, heat transfer and engineering sciences. This equation is a parabolic partial differential equation that is based on the first Fick’s law and conservation equation. The applications mathematical models of pollution transport in rivers is very vital. Analytical solutions are useful in understanding the contaminant distribution, transport parameter estimation and numerical model verification. One of the powerful methods in solving nonhomogeneous partial differential equations analytically in one or multi-dimensional domains is Generalized Integral Transform Technique (GITT). This method is based on eigenvalue problem and integral transform that converts the main partial differential equation to a system of Ordinary Differential Equation (ODE). In this research, an analytical solution to two-dimensional pollutant transport equation with arbitrary initial condition and source term was obtained for a finite domain in the rivers using GITT. The equation parameters such as velocity, dispersion and reaction factor were considered constant. The boundary condition was assumed homogenous. In this research, the source term is considered as point pollutant sources with arbitrary emission time pattern. To extract the analytical solution, the first step is choosing an appropriate eigenvalue problem. The eigenvalue must be selected based on Self-Adjoint operator and can be solved analytically. In the next, the eigenfunction set was extract by solving the eigenvalue problem with homogenous boundary condition using the separation of variables method. Then the forward integral transform and inverse transform were defined. By implementing the transform and using the orthogonality property, the ordinary differential equation system was obtained. The initial condition was transformed using forward transform and the ODE system was solved numerically and the transformed concentration function was obtained. Finally, the inverse transform was implemented and the main analytical solution was extracted. In order to evaluate the extracted solution, the result of the proposed solution was compared with the Green’s Function Method (GFM) solution in the form of two hypothetical examples. In this way, in the first example, the initial condition function as an impulsive one at the specific point in the domain and one point source with the exponential time pattern were considered. In the second example, the initial condition was similar to the first example and two point sources with irregular time pattern were assumed. The final results were represented in the form of the concentration contours at different times in the velocity field. The results show the conformity of the proposed solution and GFM solution and report that the performance of the proposed solution is satisfactory and accurate. The concentration gradient decreases over time and the pollution plume spreads and finally exits from the domain at the resultant velocity direction due to the advection and dispersion processes. The presented solutions have various applications; they can be used instead of numerical models for constant- parameters conditions. The analytical solution is as an exact, fast, simple and flexible tool that is conveniently stable for all conditions; using this method, difficulties associated with numerical methods, such as stability, accuracy, etc., are not involved. Also because of the high flexibility of the present analytical solutions, it is possible to implement arbitrary initial condition and multiple point sources with more complexity in emission time patterns. So it can be used as a benchmark solution for the numerical solution validation in two-dimensional mode.

    Keywords: Pollutant transport equation, Initial Condition, point sources, arbitrary time pattern, Generalized Integral Transform Technique, finite domain
  • Mir Reza Ghaffari Razin * Pages 91-107

    The ionosphere is a layer of Earth's atmosphere extending from an altitude of 100 to more than 1000 km. Typically total electron content (TEC) is used to study the behavior and properties of the ionosphere. In fact, TEC is the total number of free electrons in the path between the satellite and the receiver. TEC varies greatly with time and space. TEC temporal frequencies can be considered on a daily, monthly, seasonal and annual basis. Understanding these variations is crucial in space science, satellite systems and positioning. Therefore, ionosphere time series modeling is very important. It requires a lot of observations to model the ionosphere temporal frequencies. As a result, it requires a model with high speed and accuracy. In this paper, a new method is presented for modeling the ionosphere time series. The principal component analysis (PCA) method is combined with the fuzzy inference system (FIS) and then, the ionosphere time series are modeled. The advantage of this combination is to increase the computational speed, reduce the convergence time to the optimal solution as well as increase the accuracy of the results. With the proposed model, the ionosphere can be analyzed at shorter time resolutions. Principal component analysisis a statistical procedure that uses anorthogonal transformationto convert a set of observations of possibly correlated variables into a set of values oflinearly uncorrelatedvariables calledprincipal components.This transformation is defined in such a way that the first principal component has the largest possiblevariance, and each succeeding component in turn has the highest variance possible under the constraint that it isorthogonalto the preceding components. The resulting vectors are an uncorrelated orthogonal basis set. PCA is sensitive to the relative scaling of the original variables. Fuzzy inference systems (FIS) take inputs and process them based on the pre-specified rules to produce the outputs. Both the inputs and outputs are real-valued, whereas the internal processing is based on fuzzy rules and fuzzy arithmetic. FIS is the key unit of a fuzzy logic system having decision making as its primary work. It uses the “IF…THEN” rules along with connectors “OR” or “AND” for drawing essential decision rules. To evaluate the proposed method of this paper, observations of Tehran's GNSS station, in 2016 have been used. This station is one of the International GNSS Service (IGS) in Iran. Therefore, its observations are easily accessible and evaluated. The statistical indices dVTEC = |VTECGPS-VTECmodel|, correlation coefficient and root mean square error (RMSE) are used to evaluate the new method. The statistical evaluations made on the dVTEC show that for the PCA-FIS combination model, this index has a lower numerical value than the FIS model without PCA as well as the global ionosphere map (GIM-TEC) and NeQuick empirical ionosphere model. The correlation coefficients are obtained 0.890, 0.704 and 0.697 for PCA-FIS, GIM and NeQuick models with respect to the GPS-TEC as a reference observation. Using the combination of PCA and FIS, the convergence speed to an optimal solution decreased from 205 to 159 seconds. Also, the RMSE of training and testing steps have also been significantly reduced. Northern, eastern, and height component analysis in precise point positioning (PPP) also show higher accuracy of the proposed model than the GIM and NeQuick model. The results of this paper show that the PCA-FIS method is a new method with precision, accuracy and high speed for time series modeling of TEC variations.

    Keywords: Ionosphere, Fuzzy Network, Principal component analysis, GPS
  • Omid Mahpeykar, Amir Ashtari Larki, Mohammad Akbarinasab * Pages 109-125

    Nowadays, marine data containing both observational and measured values as well as the output of numerical models are largely available; But analyzing and processing this data is time consuming and tedious due to the heavy volume of information.Identifying and extracting eddies is one of the most important aspects of physical oceanography, and automatic detection algorithms of eddies are one of the most basic tools for analysing eddies. The general circulation of the Persian Gulf is a cyclonic circulation that is affected by tide, wind stress, and thermohaline forces. In this study, using the Mike model based on the three-dimensional solution of the Navier Stokes equations, assumption of incompressibility, Boussinesq approximation and hydrostatic pressure, the circulation in the Persian Gulf was modeled. Then a vector geometry algorithm has been used for detection of eddies in this region. Four constraints were derived in conformance with the eddy velocity field definition and characteristics in this algorithm. Eddy centers are determined at the points where all of the constraints are satisfied. The four constraints follow: (i) Along an east–west (EW) section, v has to reverse in sign across the eddy center, and its magnitude has to increase away from it; (ii) Along a north–south (NS) section, u has to reverse in sign across the eddy center, and its magnitude has to increase away from it: the sense of rotation has to be the same as for v; (iii) Velocity magnitude has a local minimum at the eddy center; and (iv) Around the eddy center, the directions of the velocity vectors have to change with a constant sense of rotation. The constraints require two parameters to be specified: one for the first, second, and fourth constraints and one for the third one. The first parameter, a, defines how many grids points away the increases in the magnitude of v along the EW axes and u along the NS axes are checked. It also defines the curve around the eddy center along which the change in direction of the velocity vectors is inspected. The second parameter, b, defines the dimension (in grid points) of the area used to define the local minimum of velocity. The main data used to detect eddies are numerical model outputs, including velocity components. These outputs are the result of numerical modeling with thermohaline and wind stress forces. In total, 4308 cyclonic and 2860 anticyclonic eddies are detected at the surface and 617 cyclonic and 329 anticyclonic eddies are found in the deepest layer, depth of 50 meters, for daily data during one year. The number of eddies is highest in winter, and the lowest in summer and the average radius of anticyclonic eddies is maximum in winter and minimum in summer for cyclonic eddies. Most eddies have a radius of 5-10 km and lifespan of 3-6 days. Also, as the lifespan of eddies increases, they penetrate deeper into the water. The percentage of eddy penetration or the ratio of the number of eddies of the deepest layer to the surface layer is 15% for cyclonic eddies and 10% for anticyclonic eddies. This indicates that the energy loss in the cyclonic eddies is less than in the anticyclonic eddies and is probably due to the alignment of the rotating eddy with the overall circulation of the Persian Gulf.

    Keywords: Persian Gulf, Eddy, Submesoscale, Vector Geometry Algorithm, Eddy Radius, Eddy Life time
  • Nafise Sedighi, Mohammad Ali Haddad * Pages 127-144

    The dust and the environmental pollutions caused by dust storms are a serious environmental hazard, particularly in arid and semi-arid civilian regions in the world. Controlling and decreasing the harmful or undesirable effects of dust can be achieved by accurately identifying and analyzing dust samples. For this goal, various elemental analysis methods are commonly used for identifying and characterizing dust materials. The City of Yazd (UNESCO Heritage Center) is located in Iran's central region. It is surrounded by many industrial, mineral sites, and deserts. The city's urban areas suffer air pollution due to seasonal wind, the lack of annual rainfall, and dust storms. Hence, the dust concentration reaches higher than of standard limits occasionally in this city. In this paper, a study to characterize and analyze the falling-dust in Yazd city is reported. Initially, the sampling procedure was conducted at five different locations for two months using marble dust collectors. The size distributions and morphology of dust samples were studied by Scanning Electron Microscopy (SEM), X-Ray Diffraction technique (XRD). Moreover, samples' elemental composition was analyzed using Energy Dispersive X-Ray Spectroscopy (EDX) and distinctly, Laser-Induced Breakdown Spectroscopy (LIB). The analysis of SEM images and XRD patterns of dust particles allows studying the dust's size and morphology of samples. The size of 1 to 30 microns was estimated for the dust particles with the maximum size distributions between 2 to 7 microns. Also, capsular, triangular, spherical, irregular, and polyhedral shapes are revealed by recorded particles' images. The XRD analyses show the existence of silicates, carbonates, phosphates mineral groups, calcites, quartz, gypsum, magnesium carbonate, and aluminum phosphates components in samples. Laser-induced breakdown spectroscopy (LIBS) is a non-contact, fast response, high sensitivity, real-time, and multi-elemental analytical detection technique based on emission spectroscopy to measure the elemental composition. The elemental characterization of powder samples was carried out by investigating the emission spectra of breakdown plasma in the sample region. A 1064-nm Nd:YAG laser operating at high energy (100 mJ, 1 to 20 Hz), was focused on the surface of the tiny amount of powder sample to form an emitting plasma. The emission of produced plasma from the sample was collected by eight optical fibers and was detected by the spectrometer. The applied experimental setup allowed to record spectra in the range of 200 to 1200 nm with a spectral resolution of 0.4 nm. In total, 74 atomic emission lines of generated plasma were analyzed. Spectral analysis of obtained spectra enables to identify several elements such as calcium, silicon, iron, magnesium, aluminum, carbon, and other elements with less abundance such as potassium, sodium, strontium, manganese, titanium, cobalt, vanadium, barium and lead in the elemental composition of dust samples. The results deduced using the LIBS technique agree unambiguously with results obtained by EDX analysis of dust samples in this work. It is found that Laser-Induced Breakdown spectroscopy is a rapid, reliable, and powerful analytical tool for the diagnostic and detection of multiple elements for solid dust samples. Also, this technique is comparable with standard methods such as atomic absorption spectroscopy (AAS) and X-Ray Fluorescence (XRF) for chemical and elemental analysis of urban, mineral, and industrial dust.

    Keywords: Dust, morphological, Laser-Induced Breakdown Spectroscopy, X-ray diffraction, Energy-Dispersive X-Ray Spectroscopy, scanning electron microscope
  • Nafiseh Pegahfar * Pages 145-174

    Sensitivity of numerical models in the prediction of Tropical Cyclone (TC) characteristics has been considered in numerous research studies. In this research, application of five cumulus schemes of HWRF (Hurricane Weather Research and Forecasting) model, including KF, SAS, BMJ, TiedTKE and SASAS has been examined during Tropical Cyclone Gonu (TCG) from 4 to 7 June 2007. The simulations have been conducted using three nests with 27, 9 and 3 km resolutions. To this aim, the performance of schemes in predicting TCG intensity using minimum surface pressure and maximum 10-m wind speed are analyzed. Following, their effect on forecasting the radius of maximum wind is evaluated. The parameters of lower-level divergence, upper-level convergence, potential temperature, potential vorticity, Convective Available Potential Energy (CAPE), wind vector (both horizontal and vertical components), wind shear, precipitation and radar reflectivity have been analyzed. The results of the simulations have been compared with the analysis data, IMD and TRMM observational data and routine atmospheric parameter measured at the Chabahar station. The comparison was done in different time of TCG lifetime. To examine the performance of HWRF cumulus schemes for track and intensity of the TCG, the whole life cycle of TCG was considered. To test the efficiency of HWRF cumulus schemes in predicting some dynamical and thermodynamical parameters, the time of maximum intensity of TCG (18 UTC on 4 June 2007) was focused on. To evaluate the functionality of HWRF cumulus schemes in the coastal area, the outputs were discussed in the last two days of the TCG life cycle. Results showed that based on the used configuration, none of the five cumulus schemes predicted the TCG reaching the southern coast of Iran. Moreover, neither the pressure decrease nore the maximum wind speed were predicted accurately at the time of maximum intensity of TCG. Until TCG intensity was more that category-3, neither minimum surface pressure trend and nor the maximum wind speed trend have been forecasted well. However, for the less intense conditions, two schemes of TiedTKE and SAS produced the nearest values. The performance of all five cumulus schemes, similarly predicted the radius of the maximum wind, except TiedTKE scheme that predicted the super cyclone 6 hours earlier. The analysed and simulated of the vertical cross sections of potential temperature and horizontal wind were similar, respectively. The simulated values of the vertical component of wind were considerably larger than those from the analysis data and were also closer to the TCG center. The maximum values of simulated CAPE were off the Oman coast compared to the analysis values. Only the simulations using SASAS cumulus schemes showed the strongest potential vorticity near the surface. The simulated updrafts and downdrafts were larger than those from the analysis data. The simulated values of the major updrafts and downdrafts were closer to the center of the TCG, comparing to those from the analysis data. The upper-level divergence patterns were seen in both simulations using all 5 cumulus schemes and also in the analysis data, while the lower-level convergences were not captured neither in the simulations nor in the analysis data. The maximum value of the simulated accumulated precipitation using all 5 cumulus schemes were 80 mm in a 6 hour interval, however, the observational value from the TRMM was 25 mm/h. The predicted radar reflectivity from the simulations were similar and the simulated maximum values were the same, but the expansions of the simulated maximum values were different. All cumulus schemes predicted the wind shear values less than the analytical values. At Chabahar station, the observational values of the 10-m wind speed, sea level pressure, and temperature have been compared to the simulated values using all 5 cumulus schemes, in the period of 6-7 Jun 2007. The statistical parameters of correlation, standard deviation and root mean square were used to identify the best cumulus scheme. The least error prediction was obtained using KF cumulus schemes to predict the 10-m wind, the TiedTKE cumulus scheme to simulate sea level pressure the observed, and SASAS cumulus schemes to produce temperature.

    Keywords: HWRF model, cumulus parametrization schemes, tropical cyclone Gonu, potential vorticityT precipitation
  • Jafar Cheraghalizadeh, Morteza Nattagh Najafi *, Ahad Saber Tazehkand Pages 175-186

    Although it is well-known the clouds show a fractal geometry for a long time, their detailed analysis is missing in the literature yet. Within scattering of the received radiation from the sun, clouds play a very important role in the energy budget in the earth atmosphere. It was shown that the surface fluctuations and generally the statistics of the clouds has a very important impact on the scattering and the absorption of the radiation of the sun. In this paper we first study the relation between the visible light intensity and the width of the cumulus clouds. To this end, we find that the received intensity is , where ,  and  To this end we supposed that the transmitted intensity of light from a column of cloud is proportional to where (summation of the absorbed and the scattered contributions). Using this relation, we find a one to one relation between the cloud width and the intensity of the received visible light in low intensity regime. By calculating the Mie scattering cross sections for the physical parameters of the clouds, we argue that this correspondence works for thin enough clouds, and also the width of the clouds is proportional to the logarithm of the intensity. The Mie cross section is shown to behave almost like  for large enough s, where  is the angle of radiation of sun with respect to earth’s surface, or equivalently the cloud’s base. This allows us to map the system to two-dimensional rough media. Then exploiting the rough surface techniques, we study the statistical properties of the clouds. We first study the roughness, defined for rough surfaces as . This study on the local and global roughness exponents (α_l and α_g respectively) show that the system is self-similar. We also consider the fractal properties of the clouds. Importantly by least square fitting of the roughness we show numerically that the exponents are and . We study also the other statistical observables and their distributions. By studying the distribution of the local curvature (for various scales) and the height variable we conclude that these functions, and consequently the system is not Gaussian. Especially the distribution of the height profile follows the Weibull distribution, defined via the relation  for  and zero otherwise. The reasoning of how this relation arises is out of scope of the present work, and is postponed to our future studies. The studies on the local curvature, defined via  reveals the same behaviors and structure. All of these show that the problem of the width of cumulus clouds maps to a non-Gaussian self-similar rough surface. Also we show that the system is mono-fractal, which requires  . Given these results, the authors think that the top of the clouds are anomalous random rough surfaces that affect the albedo of cloud fields.

    Keywords: Cumulus clouds, visible light scattering from the cloud surface, self-similar random surfaces, fractals
  • Banafsheh Zahraie *, Hamed Poursepahy Samian, Mohsen Nasseri, S. Mahmood Taheri Pages 187-203

    Iran is located in an arid and semi-arid region and has experienced a reduction of average rainfall in recent years. This has turned the attention to the use of new methods such as cloud seeding to achieve more water resources. In this regard, cloud seeding operations have been carried out in the country since 1998. The purpose of this study was to evaluate cloud seeding projects in the 2015 water year (January, February, and March 2015) in the central region of Iran, including the provinces of Yazd, Kerman, Fars, Isfahan, and some adjacent provinces. The evaluation was performed statistically using stepwise multiple regression. Two different approaches have been used for evaluation. In the first approach, precipitation at stations located in the target area of cloud seeding operations is estimated based on the precipitation at stations in the control area using stepwise multiple regression and then taking into account a 90% confidence interval for this estimate, the effectiveness or ineffectiveness of the cloud seeding operation at each station is determined. In the second approach, the volume of precipitation in each province in the target area is estimated based on the precipitation in stations outside in the control area using stepwise multiple regression and then by considering a 90% confidence interval for this estimate, the effectiveness of cloud seeding operations on the rainfall volume of each province has been investigated. The target area in different months was selected based on the HYSPLIT model results. Due to the inconsistent spatial distribution of rain gauges in the target areas, parts of the target areas lacking enough rain gauges were excluded from further analysis. To define the boundaries of the exclusion areas, Inverse Distance Weighted (IDW) method was used to find the influence of the radius around each rain gauge. The influence radius values were selected as 93940, 89569, and 149015 m for the months of January, February, and March, respectively. Finally, the minimum value of 89569 m was selected as the influence radius. The results of both methods indicate the impact of cloud seeding operations this year in these areas. In particular, the volume of precipitation in February in all provinces located in the target area of cloud seeding operations has increased from 15 to 80 percent. Surface runoff generated from the increased precipitation due to cloud seeding were estimated by the two methods of Soil Conservation Service (SCS) and Rational method. The estimated surface runoffs generated by SCS and rational methods were 1318.5 and 1329.5 million m3, respectively. The groundwater recharge in the three months of January, February, and March is estimated as 105.3, 425.6, and 156.3 million m3, respectively. It is important to note that runoff and groundwater recharge estimations by the method used in this study are subject to high uncertainties, and the estimations can only represent the order of magnitude of impacts of cloud seeding operations, and therefore, exact numbers should not be used for water resources planning and management purposes. Further investigation in areas with more rain gauges can assist in a more accurate assessment of could seeding operations.

    Keywords: Weather Modification, Stepwise Multiple Regression, Linear Multiple Regression, Statistical analysis, Cloud Seeding, Central Plateau of Iran